Autonome „Killerroboter“ auf dem Vormarsch

Die Entwicklung und Anwendung von Künstlicher Intelligenz wird immer weiter verbreitet. Eine neue Generation von KI-Waffen, darunter auch Roboter für militärische Zwecke, gibt Experten Anlass zur Sorge. Sie erklären, dass KI frei von ethischen Zwängen sei und dass sie die Menschheit in ein moralisches Dilemma führen könnte.
Titelbild
Ausbildung eines Roboters für militärische Zwecke (Symbolbild).Foto: iStock/yacobchuk

An dieser Stelle wird ein Podcast von Podcaster angezeigt. Bitte akzeptieren Sie mit einem Klick auf den folgenden Button die Marketing-Cookies, um den Podcast anzuhören.

Heute erleben wir wahrscheinlich den größten Wandel in der Militärgeschichte.“

Das erklärte der Vorsitzende des Generalstabs der Vereinigten Staaten, General Mark Milley, im vergangenen Jahr der US-Plattform für Militär- und Sicherheitsstrategie „Defense One“. „Wir befinden uns aus militärischer Sicht in einem entscheidenden Moment der Geschichte. Wir erleben gerade eine grundlegende Veränderung im Charakter des Krieges“, wird Milley in der amerikanischen Epoch Times zitiert.

Nach der letzten Revolution in der sogenannten mechanisierten Kriegsführung komme es nun zum massiven Einsatz von Robotik und Künstlicher Intelligenz (KI). Der Mensch werde aus militärischen Entscheidungen entfernt.

Ein „Oppenheimer-Moment“?

Ende April 2024 wurde in Wien im Anschluss an eine internationale Konferenz zu diesem Thema ein Aufruf zur Regulierung tödlicher autonomer Waffensysteme (AWS) lanciert. Diese Systeme werden ebenfalls „Killerroboter“ genannt. Der Text betonte die „Dringlichkeit“ angesichts erfolgloser diplomatischer Bemühungen. Länder wie Russland, China und die Vereinigten Staaten haben sich bis jetzt gegen Regulierungsversuche auf internationaler Ebene gestellt. „Dies ist der Oppenheimer-Moment unserer Generation“, betonte das Abschlussdokument der Konferenz.

Der „Oppenheimer-Moment“ bezieht sich auf die Beteiligung des amerikanischen Physikers Robert Oppenheimer an der Entwicklung der Atombombe, die den Vereinigten Staaten und ihren Verbündeten den Sieg im Zweiten Weltkrieg bescherte und ihm den Titel „Vater der Atombombe“ einbrachte. Oppenheimer wurde jedoch Zeuge der Katastrophe, die die Atombombe über das japanische Volk brachte, und der tiefen Narben, die sie in der Welt hinterließ. Dies brachte ihn zu der Frage, ob seine Entscheidung, sich an der Entwicklung der Atombombe zu beteiligen, richtig war.

Roboterarmeen sind die Zukunft

General Mark Milley ist überzeugt, dass die weltweit mächtigsten Armeen im nächsten Jahrzehnt größtenteils aus Robotern bestehen werden. „In den nächsten zehn bis fünfzehn Jahren wird ein großer Teil der Armeen fortgeschrittener Länder zu Robotern werden“, zitiert ihn die US-Epoch-Times. „Wenn man Künstliche Intelligenz, Präzisionsmunition und die Fähigkeit, aus der Ferne zu sehen, zur Robotik hinzufügt, ergibt sich eine Mischung aus echten grundlegenden Veränderungen“, so der General.

Papst Franziskus warnte am 14. Juni 2024 in einer Rede vor dem G7-Gipfel in Süditalien vor dem militärischen Einsatz Künstlicher Intelligenz und forderte ein Verbot „tödlicher autonomer Waffen“. „In einer Tragödie wie einem bewaffneten Konflikt ist es dringend erforderlich, die Entwicklung und den Einsatz von Geräten wie ‚tödlichen autonomen Waffen‘ zu überdenken, um deren Einsatz zu verbieten“, erklärte er vor den Staats- und Regierungschefs. Der Papst, der ein ausgesprochener Gegner des Waffenhandels ist, sagte weiter:

Keine Maschine sollte sich jemals dafür entscheiden, einem Menschen das Leben zu nehmen.“

Die dritte Revolution nach Schießpulver und Atombombe

Von der russischen Invasion in der Ukraine bis zu Krisen im Nahen Osten sehen wir jetzt schon den Einsatz von KI, die sehr gefährlich sein kann. Roboter, Drohnen, Torpedos: Alle Arten von Waffen könnten in autonome Systeme umgewandelt werden, die von Algorithmen gesteuert werden. Nach Meinung von Experten könnte dies die dritte große Revolution auf dem Gebiet der Militärausrüstung werden, nach der Erfindung des Schießpulvers und der Atombombe.

Die beiden größten Militärmächte der Welt, China und die Vereinigten Staaten, stehen an der Spitze der Nationen, die militärische KI entwickeln wollen. In diesem Wettlauf um tödliche autonome Waffen investiert das chinesische Regime in mit Künstlicher Intelligenz ausgestattete Plattformen, die in Kriegszeiten tödliche Missionen durchführen könnten, ohne dass der Mensch eingreifen oder kontrollieren muss.

„Die besten verfügbaren Beweise […] deuten darauf hin, dass Chinas Strategie ehrgeizig ist und über jede Form menschlicher Überwachung auf dem Schlachtfeld hinausgeht, hin zu einer zunehmend autonomen KI-basierten Kriegsführung“, sagt Gregory Allen, Direktor des Wadhwani Center for AI and Advanced Technologies am Zentrum für Strategische und Internationale Studien.

Ihm zufolge investiere die Kommunistische Partei Chinas (KPC) stark in eine Vielzahl neuer Technologien, wovon KI die wichtigste sei. Die Fähigkeit des Regimes, KI-gesteuerte Kriegsmaschinen zu bauen, erreiche schnell das Niveau der Vereinigten Staaten und könne diese bald sogar übertreffen.

China kann bald die Führung übernehmen

„Auch wenn die Vereinigten Staaten erhebliche Vorteile haben, kann China schnell die Führung bei der Einführung von KI-Fähigkeiten durch Regierungen und Militärs übernehmen“, erklärt Allen laut US-Epoch-Times. Die KI-Ambitionen des Regimes beschränkten sich nicht nur auf Killerroboter. Die KPC investiere auch in die Entwicklung von KI-Fähigkeiten im Kontext der militärischen Entscheidungsfindung und Führung.

Das Ziel der KPC bestehe darin, den „Faktor Mensch“ aus der militärischen Entscheidungsfindung zu entfernen und die Kriegsführung durch die massive Integration von KI, Automatisierung und Big Data zu transformieren. Zusammenfassend lasse sich sagen, dass vollkommen autonome Waffen – „Killerroboter“ – in der Lage wären, Ziele ohne menschliches Eingreifen auszuwählen und anzugreifen.

Internationale Konferenz in Wien

Ende April 2024 fand in Wien die eingangs erwähnte zweitägige Konferenz statt, bei der alle Länder dazu aufgerufen wurden, gemeinsam über die Frage der Bewaffnung von KI zu diskutieren. An der Konferenz nahmen mehr als 1.000 Menschen aus über 140 Ländern teil, darunter politische Führer, Experten und Mitglieder der Zivilgesellschaft.

Der österreichische Außenminister Alexander Schallenberg machte in seinem Eingangsstatement klar:

Autonome Waffensysteme werden bald die Schlachtfelder auf der ganzen Welt erobern. Wir sehen das bereits bei KI-Drohnen und der KI-gesteuerten Zielauswahl.“

Die ganze Konferenz ist im Mitschnitt zu sehen (YouTube).

Schallenberg erklärte, dass es dringend notwendig sei, international anerkannte Regeln und Standards zu etablieren, um zu verhindern, dass KI der menschlichen Kontrolle entgehe und die Menschheit bedrohe. Wir müssten sicherstellen, dass Waffen von Menschen und nicht von KI kontrolliert würden, so der Außenminister.

Laut Human Rights Watch „ist es zweifelhaft, ob vollständig autonome Waffen in der Lage sind, die Normen des humanitären Völkerrechts einschließlich der Regeln der Unterscheidung, der Verhältnismäßigkeit und der militärischen Notwendigkeit zu respektieren, während sie das Grundrecht auf Leben und den Grundsatz der Menschenwürde bedrohen.“ Daher fordert die NGO ein präventives Verbot der Entwicklung, Produktion und des Einsatzes vollautonomer Waffen.

„Die Welt nähert sich einem Wendepunkt, um auf die Bedenken über autonome Waffensysteme zu reagieren, und die Unterstützung für Verhandlungen erreicht ein noch nie da gewesenes Niveau“, sagte Steve Goose, Direktor für Waffenkampagnen bei Human Rights Watch. „Die Verabschiedung eines starken internationalen Abkommens über autonome Waffensysteme könnte nicht notwendiger und dringender sein.“

UN-Resolution über letale autonome Waffensysteme

Am 22. Dezember 2023 stimmten 152 Länder, darunter Deutschland, für die erste UN-Resolution zu letalen autonomen Waffensystemen (Resolution 78/241). Vier Länder stimmten dagegen (Weißrussland, Indien, Mali und die Russische Föderation), gleichzeitig enthielten sich China, Nordkorea, Israel und acht weitere Staaten der Stimme. In einer Vorabstimmung wurde die Resolution noch von 164 Ländern unterstützt.

In der Resolution werden „die großen Herausforderungen und ernsthaften Bedenken“ anerkannt, die „neue technologische Anwendungen im militärischen Bereich einschließlich solcher im Zusammenhang mit Künstlicher Intelligenz und der Autonomie von Waffensystemen“ aufwerfen.

Der Text fordert eine umfassende Überprüfung des Themas auf der nächsten UN-Generalversammlung, die am 10. September 2024 beginnt. Dafür soll der Generalsekretär einen umfassenden Bericht erstellen, in dem die Ansichten aller Länder und wichtigen Interessengruppen berücksichtigt werden.

USA setzen auf Freiwilligkeit

Laut einer Einschätzung von Michael T. Klare von der amerikanischen Arms Control Association, bestehe weitgehende Einigkeit über die potenziellen Risiken autonomer Waffensysteme, vor allem wenn sie ohne angemessene menschliche Aufsicht eingesetzt werden. Uneinigkeit bestehe darin, den Entwicklungs- und Einsatzprozess zu regulieren. Eine Gruppe, angeführt von Österreich, befürworte ein rechtsverbindliches Verbot des Einsatzes vollautonomer Waffensysteme. Andere Nationen, allen voran die Vereinigten Staaten, plädierten für freiwillige Beschränkungen.

Welche der beiden Gruppen in der Vorbereitung der nächsten UN-Generalversammlung eine größere Rolle spielen wird, wird sich zeigen.

Mit Material der französischen und amerikanischen Epoch Times



Epoch TV
Epoch Vital
Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion